s

Accueil

www →

l

Introduction :

L’accès à l’information n’a jamais semblé aussi facile. Lorsque, le matin, je démarre mon ordinateur ou déverrouille mon smartphone, il m’est possible en quelques gestes d’accéder aux dernières actualités. Que ce soit à travers les réseaux sociaux ou les différents sites – et applications – sur lesquels je me rends, tout est conçu pour me faciliter leur appréhension. Cependant, la facilité d’intégration de ces objets techniques dans notre quotidien engage une technologies dont le fonctionnement n’est pas aussi limpide et clair que le contenu qui m’est proposé lors de leur utilisation.

Le design graphique par sa relation avec l’information se fait le traducteur de ces systèmes techniques à travers la mise en place d’interfaces permettant la consultation des contenus que ces objets veulent bien nous dévoiler. Cependant, les multiples couches logiciels qui se trouvent au cœur de ces processus de publication, créent une rupture avec la technique, autrefois plus transparente, d’une publication imprimée et de sa circulation. La technologie numérique par sa complexité, engage un rapport à l’information en rupture avec ses prédécesseurs, elle permet notamment la création de relations avec les autres informations qui l’entourent. Ce nouvel environnement de publications – internet – depuis sa démocratisation à travers le web, fait l’objet de nombreux débats aussi bien sociétaux que juridiques en raison des changements qu’il a provoqué ces 30 dernières années. Il s’agira ici de tenter d’analyser l’environnement technique dans lequel ces processus de circulation des informations prennent part et de voir comment le design graphique permet de structurer cet espace et les comportements de sa consultation.

Par design graphique, j’entends ici les procédés visuels de structuration, de présentation et d’interaction des contenus, aussi bien par le texte, que par la vidéo ou l’image etc… Il ne s’agit alors pas de parler du métier de designer graphique, mais de ce qui se présente à la personne qui consulte une publication, un contenu.

Conception et structuration d’un espace numérique. Wikipédia comme exemple des possibles

L’imprimerie, mise au point au XVᵉ siècle, fut une révolution permettant, grâce à la reproduction d’un document à partir d’une matrice, la diffusion des connaissances auprès des lettrés et scientifiques européens dans un premiers temps, puis à une plus large part de la population à travers les différentes étapes du développement de l’instruction. Malgré les perfectionnements survenus durant les 500 dernières années, le processus d’impression et de diffusion d’un document à une large échelle reste un processus industriel nécessitant un investissement matériel et donc financier non négligeable.

L’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire1

Avec l’invention des ordinateurs personnels et leur démocratisation dans les foyers, c’est la possibilité d’écrire puis de partager ces écrits qui devient possible à l’aide d’Internet. Mais plus que « publier » un contenu, c’est aussi, entre autres, la mise en commun qui est rendue possible grâce à la facilitation de leur circulation et à la fluidité des connexions. Si aujourd’hui, l’acte de laisser un message sur le web apparaît comme un acte pouvant sembler trivial, les structures et processus qui permettent cette trivialité et régissent son apparition ne le sont pas et sont le résultat d’un empilement de programmes informatiques.

Le web & internet

En 1989, au CERN, le chercheur britannique Tim Berners-Lee écrit la première proposition de ce qui deviendra le Web afin que des scientifiques et des universitaires du monde entier puissent échanger des documents de manière instantanée.

Si le Web n’était au départ qu’un moyen de faire circuler des documents, il a en 30 ans grandement évolué touchant d’autres domaines d’applications. Au delà de cette évolution, c’est cette idée de transfert et d’échange de documents que je garderai afin d’essayer d’en déterminer les contours et de comprendre les structures qui régissent l’apparition d’informations à l’écran.

firstpropositionweb

Schéma de la première proposition du web par Tim Berners-Lee en 1989

En premier lieu il est utile de préciser que le Web et Internet sont deux choses différentes. Internet est le réseau informatique dans lequel le Web va s’inscrire avec d’autres applications.
Pour tenter de comprendre cette distinction de manière plus simple, on peut considérer Internet comme une mégalopole dans laquelle toute interaction ou communication ne pourra s’effectuer qu’à travers un service postal automatisé. Ce service postal a émis un ensemble de règles strictes ou protocoles régissant les communications entre chaque bâtiment. La couleur de chaque enveloppe permet d’utiliser ce service d’une manière particulière. Si je souhaite emprunter un livre à la bibliothèque « A », je dois envoyer une lettre dans une enveloppe rouge sur laquelle sont inscrits le nom et l’adresse de cette bibliothèque et à l’intérieur, le nom du livre que je souhaite consulter pour que celle-ci me le retourne. Si par contre je souhaite envoyer un message à mon voisin pour l’informer de la prochaine réunion de quartier, je lui enverrai une lettre verte contenant mon message.

Dans cet exemple, les maisons représentent les différents ordinateurs personnels et la bibliothèque représenterait un ordinateur serveur permettant de répondre à un service particulier comme le transfert d’un objet en son sein à la suite d’une requête, cet objet serait alors un fichier. Les bâtiments et leurs connexions seraient le réseau informatique qui compose internet. Le service postal permettant aux différents endroits de communiquer est le protocole TCP/IP – pour Transfer Control Protocol et Internet Protocol –, IP permet de définir les adresses de l’ensemble des bâtiments selon une nomenclature déterminée. Ainsi, chaque adresse pourra être analysée automatiquement afin d’identifier plus facilement le bâtiment qu’elle représente dans le réseau de la ville. L’enveloppe rouge et son contenu est le protocole HTTP – HyperText Transfer Protocol – qui est un protocole du Web. Cette requête permet, une fois arrivée à l’accueil de la bibliothèque de faire une demande d’accès à un objet particulier présent à l’intérieur de cette bibliothèque. Ma requête va ensuite être traité par cet accueil pour me formuler une réponse, si le livre est disponible il va m’être ainsi envoyé. L’enveloppe verte qui permet d’échanger des messages simples, est le SMTP – Simple Mail Transfer Protocol – permettant l’envoi d’un e-mail. Il existe de nombreux autres protocoles chacun permettant une action spécifique. Si, par exemple, la bibliothèque décide d’ajouter ou de soustraire des livres à sa collection – correspondant aux dépôts ou à la suppression, manipulation de fichiers sur mon serveur – elle utilisera un protocole nommé FTP – File Transfer Protocol – permettant d’ouvrir une zone d’accès au serveur sans passer par un site web.

Le Web et les protocoles qui le composent apparaissent comme un système documentaire. Pour reprendre ma précédente analogie, lorsque je décide d’envoyer ma lettre rouge, j’effectue une requête à la bibliothèque, pour, en retour recevoir un livre. Lorsque je décide, dans mon navigateur, d’entrer l’URL–  Uniform Ressource Locator – www.wikipedia.org, j’adresse ma requête au serveur hébergeant Wikipédia – à la bibliothèque nommée Wikipédia de la ville – pour qu’il me renvoie par la suite la page web demandée et qu’elle s’affiche dans mon navigateur. C’est ce qu’on appelle le protocole HTTP. Le web, c’est donc l’ensemble de protocoles de communication intermachines, ainsi que l’ensemble de ces bâtiments dont l’adresse est connue et qui ont décidé de partager leurs contenus à l’aide d’un ensemble structuré de documents utilisant des formats standards – HTML, CSS, JavaScript, etc. – : des « sites » web.

La particularité de ce système est qu’il a la possibilité, une fois une page affichée, de me rediriger – à travers des liens HyperTexte – aussi bien vers des pages du même serveur sans ordre précis, comme le ferait un dictionnaire, ou bien de me donner un accès vers une page hébergée par un autre serveur. Cette redirection pourrait faire écho à une référence en note de bas de page d’un article scientifique. Cependant, la réalité technique du réseau informatique qui compose Internet permet une redirection instantanée et de ce fait une navigation et une circulation entre différentes informations beaucoup plus rapide.

clientserv

échange client serveur

Internet est donc la structure que le Web exploite pour connecter ensemble les documents. La réalité est plus complexe que cela mais ces quelques distinctions permettent de com-prendre que les échanges et la circulation des informations qui ont lieu à l’aide d’Internet, sont conditionnées par divers processus très spécifiques pouvant communiquer entre eux de manière automatique.
Jusqu’ici nous avons établi les différents chemins que peuvent emprunter les informations et les liens pouvant être établis entre elles. Cependant, il ne s’agit ici que de circulation, et ces points de transition, ces relais n’existent que parce qu’ils se trouvent attachés à un contenu ; un contenu qui a aussi bien muté dans sa manière de se transmettre que dans celle de se construire vis-à-vis des technologies de l’impression.
Dans ce contexte, le design graphique comme acteur contribuant à structurer l’information est lui aussi bouleversé par ces nouvelles formes de transmission. Aussi bien dans les outils utilisés et dans la manière de traduire et formater visuellement ces contenus, que dans les conditions de leur consultation, leur édition et augmentation potentielle une fois publiés.
Afin de tenter de comprendre quels changements la numérisation de l’information a produit, et de déterminer ce qu’implique la création et la publication d’un contenu dans une infra-structure web, prenons le cas de Wikipédia qui, par son organisation permet d’aborder plusieurs notions qui seront utiles par la suite. Le but est d’essayer d’établir ce qu’il est possible de faire à travers ces nouveaux mediums de publication.

Wikipedia comme illustration non exhaustive des possibles

Voici comment cette idée fantaisiste a pris corps. Un « livre électronique », contrairement au codex imprimé, peut contenir de nombreuses strates organisées en forme de pyramide. Les lecteurs pourront télécharger le texte et parcourir la strate supérieure qui sera rédigée comme une monographie classique. Si cela leur suffit, ils imprimeront le texte, le relieront et l’étudieront à leur guise sous la forme d’un livre fabriqué sur commande. S’ils tombent sur quelque chose qui les intéresse plus particulièrement, ils cliqueront sur une autre strate et accéderont à un essai ou à un appendice supplémentaire. Ils pourront aussi continuer à s’enfoncer plus profondément dans le livre à travers un corpus de documents –bibliographie, historiographie, iconographie, musique de fond–, tout ce que j’aurais mis à leur disposition pour conduire à la compréhension la plus complète de mon sujet. Finalement, ils s’approprieront le sujet parce qu’ils y traceront leur propre cheminement en le lisant de façon horizontale, verticale, ou diagonale, selon les directions ouvertes par les liens électroniques.2

Créé en 2001 par Jimmy Wales et Larry Sanger, Wikipédia est une encyclopédie libre et collaborative alimentée chaque jour par plus de cent mille contributeurs journaliers dans 293 langues. Elle propose à chaque personne qui le souhaite de créer, contribuer, corriger des articles, etc. afin de l’enrichir.
Dans un premier temps, la question du contenu doit être abordée, puis celle de l’infrastructure dans laquelle s’inscrit ce contenu et enfin celle du traitement et de l’enrichissement d’infor-mations annexes pour être réutilisées ou organisées. Si la dissociation, permise par l’imprimerie, entre le contenu et l’objet livre a mené à la création des droits d’auteurs3, le numérique permet son enrichissement et son traitement d’une manière toute particulière. Wikipédia est donc composé d’articles rédigés et modifiés par toute personne disposant d’une connexion internet. La rédaction de ces articles est potentiellement soumise au jugement de tous et malléable par tous si la personne dispose des sources nécessaires. La longueur des articles dépend alors des connaissances dont les contributeurs disposent. Ces articles ne sont pas limités par un nombre de signes, la page web pourra toujours s’étendre pour accepter des précisions ou de nouvelles informations si besoin. Le contenu peut être à tout moment soumis à des modifications, celui-ci doit donc pouvoir évoluer si l’actualité ou des découvertes font leur apparition. Un article donné n’est alors pas fixe et est susceptible d’évoluer, l’article sur le président des États-Unis n’est ainsi pas le même aujourd’hui qu’il y a 8 ans.

us2008

Article sur le président des États-Unis datant de 2008

us2020

Article sur le président des États-Unis datant de 2020

Entre 2008 et 2020 la structure, le contenu et la présentation des informations d'une même page wikipédia changent même si certains détails persistent

À la différence d’une impression sur un support physique – papier, vitre, bois, etc. – , une information contenue dans un espace numérique n’est, potentiellement, pas fixée dans le temps. Elle peut être à tout moment augmentée, modifiée, voire supprimée. Ces changements opèrent sans un moment de publication défini, à l’inverse d’un dictionnaire Larousse par exemple, mis à jour chaque année. Il s’agit ici de potentialité, certaines structures – comme peut l’être un blog – précisent le moment de publication d’un contenu.4

L’un des objectifs de l’imprimerie et de ses évolutions successives à partir du XIXᵉ siècle, était de fixer l’information sur un support. Comment le design graphique se retrouve-t-il alors à devoir composer avec un contenu pouvant muter sous l’impulsion de personnes diverses ? Outre l’inscription d’un contenu, le design graphique étend son action dans la construction de structures d’accueil qui fixent préalablement les types de formes que ce contenu pourra prendre. Il s’agit alors de mettre en place une sorte de « boite à outils », qui lors de la modification ou de l’ajout d’une information, formatera celle-ci. On parle alors de « template ». Wikipédia, pour formater et organiser son encyclopédie, se base sur MediaWiki, un logiciel libre sous licence GNU développé par la fondation Wikipédia. Il permet d’encadrer la manière dont se structurent les articles, en définissant un nombre précis de règles et d’options de modification de la page. Outre les variantes de styles (niveaux de titrage par exemple), on a ici la possibilité de lier certains articles entre eux ou encore de sourcer ses propos. Ces sources peuvent alors rediriger le lecteur vers des sites extérieurs à Wikipédia laissant ainsi la possibilité d’explorer toujours plus un sujet. 5

wikiedition

édition d'un article de wikipédia

MediaWiki permet aussi bien le développement de Wikipédia que celui de nombreux autres « wiki » ne faisant pas partie de la structure encyclopédique Wikipédia. On peut, par exemple, retrouver parmi eux Wookiepedia, un wiki dédié à l’univers de StarWars, qui permet de partager ses connaissances sur l’univers ou de les approfondir. L’utilisation de MediaWiki crée alors des similarités entre Wikipédia et Wookiepédia, notamment dans la manière dont se présentent les articles et les ressources les constituant. Cependant, MediaWiki n’étant qu’une base, celle-ci peut être augmentée pour ajouter des fonctionnalités comme la présence d’une section « réseaux sociaux » parlant de l’actualité du wiki.

wookiepedia

Page d'accueil de Wookiepedia

Ce que propose MediaWiki à travers sa distribution, est un modèle pouvant être étendu et modifié, permettant, si je le désire, de créer mon propre wiki, de rajouter mes propres fonctionnalités. Il nous montre alors au même titre que le contenu qu’elle abrite, que l’infrastructure peut elle aussi à tout moment être mise à l’épreuve de modifications. L’accessibilité et les compétences requises pour modeler cette structure ne sont pas les mêmes mais c’est une possibilité.

Dans le numérique, il n’est donc pas juste question d’espace de publication extensible, comme si l’on pouvait résumer cela à un livre auquel on pourrait rajouter un nombre de pages et dont la limite serait la quantité de papier disponible. Non, les structures permettant le développement de ces espaces sont tout autant extensibles. Pour reprendre le comparatif avec le livre, cela pourrait se traduire aussi bien par l’ajout de fonctionnalités comme une loupe pour faciliter la lecture ou des pages chauffantes pour lire dehors alors qu’il fait froid. L’idée semble absurde en raison de la construction et de la physique différentes de ces objets ; dans un espace numérique, le contenu et la structure sont confondus car ils ne sont qu’un entrelacement d’impulsions électriques. Afin de distinguer structure et contenu, on peut voir la première comme le programme qui va permettre l’affichage – dans le cas d’un espace éditorial – ou la manipulation du second, les données. En langage machine, c’est cette gestion d’impulsions électriques répondant à un ensemble de règles logiques qui va permettre l’influence de l’un sur l’autre. Cependant, le stockage et l’inscription de ces données et programmes se font à travers la stabilisation de cette énergie – électricité – sous la forme d’états logiques – communément appelé « 0 » ou « 1 » – dans un cas comme dans l’autre. Cette frontière entre les deux – données et programme – est alors floue, l’un pouvant influer sur l’autre.

À travers l’exemple de Wikipédia, une large place est faite au texte. Cependant, la modularité dans la construction de ces structures peut aussi bien inclure du texte que des images, du son ou des vidéos créant alors des possibilités de mises en relations multimédia.

Jusqu’ici on discerne donc, à travers les espaces de publication numé-riques, la mise en place de structures extensibles permettant de publier du contenu de média divers, de manière autonome ou collective, régulièrement ou irrégulièrement, selon une temporalité, elle aussi, extensible, avec la possibilité de revenir sur ce contenu pour le mettre à jour.
Un des derniers points qui doit être abordé est celui des métadonnées. Une métadonnée est une donnée servant à définir ou décrire une autre donnée quel que soit son support – papier ou électronique –. Dans le cas d’une photo prise à l’aide d’un smartphone, les métadonnées pourraient correspondre à l’heure à laquelle a été prise cette photo, le modèle du téléphone qui l’a prise, le temps d’exposition ou encore la focale. Ces données sont encapsulées dans le fichier de la photo elle-même et sont accessibles dans ses propriétés.

Pour tenter de comprendre quelle forme peut prendre une métadonnée, regardons une nouvelle fois du côté de Wikipédia et des Infobox. Les infobox sont des rubriques qui se trouvent en haut d’une page Wikpédia et qui ont pour fonction de synthétiser les informations de cette page. On pourrait parler de carte d’identité de l’article. Si la page consultée est celle d’un livre, les informations que l’on pourrait retrouver dans cette infobox sont : le titre, l’auteur, le sous-titre, l’éditeur, la collection, l’ISBN, le nombre de pages, etc. Cette liste n’est bien sûr pas exhaustive et peut être étendue. La manière dont sont complétées ces rubriques peut se faire de plusieurs manières. Mais concentrons nous sur deux d’entre elles : l’infobox dite, programmée en Wikicode sans Wikidata et celle programmée en Lua avec Wikidata. La première, en Wikicode, celle des débuts de Wikipédia, consiste à remplir l’infobox en créant des liens « à la main », c’est-à-dire en renvoyant la « réponse » à la case « auteur » de la page Wikipédia correspondante.
Concrètement, si je décide de rédiger un article sur le livre Pendant la lecture de Gerard Unger, j’inclurai dans la catégorie « auteur » de celui-ci l’article correspondant à l’auteur Gerard Unger reliant alors les deux. Cette connexion, ou hyperlien, entre les deux pages n’existera alors qu’à cet endroit – ces connexions étant à la base du web pour relier entre elles les ressources d’Internet –. Elle n’est cependant qu’un « simple » lien vers une autre page web.

bdd

ici la connexion n'existe pas forcément dans le Wiki anglais et français

Pour ce qui est de la seconde façon de remplir ces infobox, la manière de faire va au-delà de la construction d’un pont entre deux articles. Ici, les informations contenues dans l’infobox, et donc les liens entre articles par exemple, sont stockées dans la base de données Wikidata. Au lieu d’écrire mon lien dans l’article même, je l’externalise et l’inscrit dans la base de données qui en permettra alors la manipulation. Outre l’affichage dans l’infobox, cela permet par exemple, de traiter ces informations non plus uniquement dans une langue mais d’automatiser cet affichage dans plusieurs langues. De plus, à travers cette utilisation de Wikidata, les relations ou données peuvent être réutilisées pour des applications qui n’ont pas forcément de lien avec Wikipédia, et seraient même totalement différentes. En résumé, les métadonnées sont des informations soutenant une première information. Elles peuvent aussi bien servir des sous-systèmes pouvant réguler la mise en forme de l’information première, la connecter à d’autres, faciliter sa réutilisation, ou… n’être qu’une carte d’identité de celle-ci encapsulée dans un fichier.

bdd

En réalisant cette connexion via la base de données cette connexion existe dans tous les Wikis

Il s’agit ici de voir à travers l’exemple de Wikipédia, les possibilités de transition dans la conception d’un objet éditorial numé-rique. Si le monde de la publication imprimée est souvent empreint d’une finalité, celui du numérique a la possibilité d’offrir des processus de publications qui ne sont jamais totalement finis et peuvent à tout moment se connecter, s’étendre mais aussi parfois s’éteindre. Dans l’espace numérique, le design graphique subit de nombreux changements dans sa façon de se réaliser. Comme lors de l’invention de l’imprimerie, la technologie actuelle joue un rôle majeur dans les possibilités offertes. Les processus de production et de diffusion se retrouvent centralisés au sein d’une même machine, où les différentes tâches s’exécutent derrière un écran et dont la mise en place de divers logiciels dédiés à ces tâches, facilitent leur réalisation. Le rôle du design graphique devient beaucoup plus flou, puisqu’il s’agit alors de mettre en place des règles – grâce à la programmation – qui, une fois appliquées au contenu à publier vont lui donner forme. Il ne s’agit donc plus seulement de for-mater le contenu lui même. L’ensemble de ces règles conditionne l’écriture des articles – au même titre qu’un logiciel de traitement de texte comme LibreOffice Writer – et par la suite conditionnera également la lecture.

lod

Linked Open Data

Le LOD ou Linked Open Data est une représentation des connexions entre diverses bases de données libres du Web où DBpedia est la base de données de Wikipédia.

Édition, politique et multiplicité du code

Sur l'éditorialisation

Le numérique et en particulier Internet, par la manière dont ils trans-forment et accélèrent la création et la circulation de l’information sont en train de redéfinir la fonction éditoriale. Celle-ci peut, selon Benoît Epron et Marcello Vitali-Rosati, être définie en trois points. Le premier est le choix du contenu ainsi que sa production, le second sa diffusion et le troisième sa légitimation. 6.

En 1998, Emmanuel Souchier définit un texte (et donc par extension une publication) comme le creuset d’une énonciation collective derrière laquelle s’affirment des fonctions, des corps de métier, des individus..., et où fatalement se nouent des enjeux de pouvoir.7

La pratique éditoriale apparaît alors comme un échange entre plusieurs acteurs qui, dans un contexte précis, discutent de la direction et de la forme de diffusion d’un projet éditorial afin de le rendre accessible. Une publication est sous l’influence des membres qui vont orienter le contenu et les formes de sa diffusion.

Nous avons vu plus tôt que la production de formes dans un contexte de publication sur Internet peut évoluer de différentes manières, en raison par exemple de l’instabilité de l’information inscrite ou de son augmentation dans le temps. Si la numérisation a permis un regroupement de nombreux outils, Internet est, quant à lui, devenu un nouvel espace de publication pouvant atteindre un large public grâce à la facilitation de circulation des informations qui met en cause les pratiques éditoriales historiques. On parle alors du passage d’un monde de l’édi-tion à un monde de l’éditorialisation. Plusieurs définitions de l’éditiorialisation cohabitent, je vais cependant garder celle de Benoit Epron et Marcello Vitali-Rosati qui définissent cette notion comme : «l’ensemble des dynamiques – soit les interactions des actions individuelles et collectives avec un environnement numérique particulier – qui produisent et structurent l’espace numérique».8

Cette infrastructure numérique s’est construite sur des protocoles bien précis auxquels, en publiant un contenu sur internet, nous participons et consentons tous à leur utilisation. Dans un processus de publication, cette infrastructure est donc une force supplémentaire qui va façonner une information. Elle dispose d’une amplitude d’actions assez large, mais en est-il de même des logiciels ou des sites web permettant la production de nos contenus ?
Comme une maison d’édition définit sa propre ligne éditoriale, il s’agit ici de comprendre si les logiciels que j’utilise et, par extension, les plateformes qui accueillent des contenus, participent eux aussi à une forme de pratique éditoriale. À la différence des maisons d’édition traditionnelles, le code va permettre d’exercer certaines forces sur le contenu en incluant des règles implicites de création, de monstration, d’écriture ou de lecture.
Tout d’abord voyons comment le chemin pour arriver à une même destination peut prendre différentes voies en fonction du contexte de production, le code étant multiple, une seule réponse ne peut couvrir toutes les situations.

Vers une destination par des chemins multiples

Le premier exemple que je vais prendre est plus explicite car son contexte d’utilisation dépend du matériau que je souhaite altérer ou analyser à travers la programmation. Le second, quant à lui, peut sembler innocemment semblable. Pour cela, prenons deux logiciels de reconnaissance optique de carac-tères – OCR –. Le premier est Tesseract, logiciel sous licence Apache9 initié par des ingénieurs de Hewlett Packard en 1985 et dont Google poursuit le développement en OpenSource depuis 2005. Le second est Kraken, une version de OCRopus – logiciel lui aussi développé avec l’aide de Google, sous licence Apache – . L’objectif d’un logiciel d’OCR est, à partir d’une entrée image contenant du texte – PNG, JPEG… –, la création d’un document au format texte – .txt, HOCR, XML – avec chacun des caractères présents sur l’image identifiée. Ces logiciels ont donc pour objectif l’extraction de chaînes de caractères alphanumériques du texte d’une image afin de le rendre manipulable, analysable ou encore réutilisable. Certains logiciels tendent même à conserver la structure du document analysé et à recréer les hiérarchies entre les différents niveaux de textes. Mais intéressons-nous seulement à cette extraction et à la façon dont elle s’exécute.

L’objectif de ces deux logiciels est a priori semblable, cependant, ils ne procèdent pas de la même manière et les ressources mises en place pour arriver au résultat final diffèrent. Tandis que Tesseract se base sur des modèles de langages préétablis – ou incite à cette utilisation10, Kraken, plus modulaire, a été conçu pour pouvoir entraîner facilement ses propres modèles de reconnaissance de caractères afin de s’adapter à des documents plus particuliers ou complexes – des documents anciens imprimés en Fraktur par exemple –. Autrement dit, Tesseract est conçu pour être un OCR multilingue, qui tente de s’adapter au plus grand nombre de documents possibles. Cependant cette direction prise dans la conception de ce logiciel ne permet pas de traiter les cas particuliers car les réponses apportées par le logiciel sont déterminées par une forme de norme dans l’analyse des documents. Dans le cas de Kraken, la facilitation d’entraînement d’un modèle de langage à travers la transcription manuelle des premières pages, permet de créer une sorte d’OCR dédié à un document. Ce processus va, d’un côté permettre une extraction des chaînes de caractères pour les documents les plus compliqués, mais de l’autre rendre un processus de transcription pour des documents plus « simples » – un document bien imprimé et scanné en Times New Roman composé en une colonne par exemple – beau-coup plus éprouvant que si l’on décidait d’utiliser Tesseract.
Si ces deux logiciels ont un objectif final similaire, leur structure ne traitent pas pour autant l’information reçue de la même manière. Le contexte global entourant leur utilisation va déterminer quel processus favoriser par rapport à l’autre. Et si en apparence le résultat est le même, les processus qui auront servi à l’obtenir divergeront suivant les choix effectués. Pour un même problème à traiter, la réponse amenée par la programmation peut prendre deux directions totalement différentes. Le code n’apporte pas une seule bonne réponse universelle, les moyens de trouver cette réponse sont multiples. Il faut alors considérer les données ou l’objet du travail pour pouvoir choisir quelle structure correspondra le mieux et permettra un traitement d’ensemble sans en exclure une partie.

Le second exemple qui peut sembler plus évident pour démontrer la multiplicité des algorithmes et le caractère éditorial, est celui d’un simple export d’un fichier vectoriel au format SVG.

Le Scalable Vector Graphics (en français « graphique vectoriel adaptable»), ou SVG, est un format de données ASCII conçu pour décrire des ensembles de graphiques vectoriels et basés sur XML. Ce format inspiré directement du VML et du PGML est spécifié par le World Wide Web Consortium.11

Il est possible d’exporter un SVG avec un logiciel de la suite Adobe tel que Illustrator ou alors avec un logiciel libre comme Inkscape. Dans les exemples suivants, à l’aide de chacun des deux logiciels, j’ai créé un cercle noir dans un document au format carré de dimension 100x100mm. Si ces fichiers sont ouverts à l’aide d’un navigateur internet tel quel, les éléments qui apparaîtront sur nos fenêtres seront un même cercle noir. Cependant, si l’on décide d’ouvrir ces mêmes fichiers avec un éditeur de code afin d’intégrer par exemple nos SVG à un site web, leurs descriptions ne seront alors plus les mêmes. Le fichier exporté par Illustrator semble pauvre en informations comparé à celui d’Inkscape. Ces infor-mations, de manière générale, concernent l’environnement dans lequel cette forme a été conçue, la version du logiciel utilisé, sa licence etc.
Lorsque je décide d’utiliser un logiciel WISIWYG – What You See Is What You Get – permettant de manipuler des formes vectorielles, je m’attends à ce que ces formes prennent par la suite, une place dans un médium. En décidant d’exporter mon cercle en SVG, je le destine à une utilisation sur internet, les deux s’accommodant plutôt bien. Quelle infor-mation va alors laisser le code que j’ai produit au moyen de mon logiciel et que dit-il de lui ? Car la possibilité d’ex-porter ou non des informations complémentaires dans le code de mon SVG, a été décidée par des personnes ou par l’entreprise ayant conçu le code du logiciel. Cette décision traduit un rapport particulier à la technique et donc à l’informatique.
Dans le cas où je préfère utiliser Illustrator et la version la plus simple du SVG, le logiciel indique un chemin à suivre. Ce SVG doit être intégré tel quel dans la page qui doit suivre et c’est le chemin à prendre pour n’importe quel SVG. Alors pourquoi s’encombrer du superflu ? Optimisons l’intégration, le contexte de création n’a pas d’importance, ce n’est qu’un élément permettant d’arriver aux résultats désirés. Ce qui est vrai, puisque la simplification du code facilitera son intégration.

illlusvg

svg généré par Illustrator

Si au contraire je suis utilisateur de Inkscape et préfère générer des SVG riches d’informations annexes – qu’Inkscape génère à travers l’environnement technique sur lequel le SVG repose –, je décide alors de montrer l’état du fichier, d’où il vient, quelle version du logiciel j’ai décidé d’utiliser, qu’est ce qu’un SVG… Se dévoile alors la complexité de l’environnement dans lequel cette forme a été créée, comment j’ai paramétré mon outil et quels sont les points qui, s’ils étaient modifiés, influeraient sur la forme que j’ai produite. Cependant en décidant de générer ces cercles sur les deux logiciels, je n’ai fait presque aucun choix si ce n’est la taille du format, le fait de générer un cercle et que celui-ci soit de couleur noir.

inksvg

svg généré par Inkscape

Alors que le premier fichier me dit « oui c’est un cercle » à travers son unique description, le second, en dévoilant l’environnement dans lequel je me trouvais au moment de sa création, m’indique que les choix par défaut paramétrés dans mon logiciel sont déjà une forme de choix.
Là encore, dans les deux cas, le résultat sera le même alors que les codes permettant la transcription du cercle noir en fichier sont différents. Mais il s’agit ici de savoir comment est donnée cette information qu’est le cercle noir. Le code étant l’objet d’une écriture pouvant être multiple, la création de ces logiciels fait donc l’objet d’une réflexion éditoriale. Un logiciel est publié, dans lequel des personnes ont choisi quelles informations leur semblent ou non nécessaires, ainsi que le degré de transparence de leur logiciel12.
Nous avons vu plus tôt que les espaces éditoriaux numériques mis en place sont eux aussi un logiciel dans lequel une marge de liberté est laissée en fonction des règles/bordures créées. Dans le cas d’une recherche dans ce même espace, ces règles conditionnent alors mes choix de navigation.
Ces choix ne sont pas linéaires, par une seule entrée il est possible d’arriver à la même sortie en empruntant des chemins différents. Cela n’est pas propre aux espaces numériques, on peut retrouver ces principes de fonctionnement dans des dictionnaires, encyclopédies papiers, manuels scolaires, etc. Cependant, à travers le web s’ajoute la possibilité de connecter ces différentes ressources de façon automatique.

Aujourd’hui, si je décide de me rendre sur la page Wikipédia du mot « arbre », plusieurs options s’offrent à moi. Je peux aller directement sur Wikipédia et chercher le mot « arbre », ou encore aller dans mon moteur de recherche préféré – duckduckgo par exemple – et, en rentrant le mot « arbre », trouver la page désirée. Ou, coup de chance !… Hier, je consultais l’article de Wikipédia sur les chênes. Le texte contenait le mot « arbre ». J’ai eu alors la possibilité d’accéder à ma destination. Autant de chemins différents qui me permettent d’accéder à une information voulue, cette information pouvant elle même être le relais vers une autre. Je peux en effet décider de continuer sur le même site ou alors me rediriger vers les notes et les références pour lire la publication de Peter A. Thomas, Trees. Their Natural History, Cambridge University Press, 2014 dont l’archive est disponible en ligne.

Un simple exemple de navigation sur le Web nous montre donc que de multiples chemins existent, et qu’ils sont reliés entre eux plus ou moins directement par de multiples relais – pages web, redirections –. Ces relais présentent une information ou un autre relai chacun d’une manière différente. Aucun de ces chemins n’est le bon ou le mauvais et ceux-ci évoluent constamment au fur et à mesure des mises à jour. Si un chemin est écrit – codé – de cette manière aujourd’hui, il aurait pu en être autrement. Il n’existe pas une seule manière d’écrire du code et cela a une influence sur l’information transmise par la suite.

L'édition du web

Rien n’est plus dangereux pour l’avenir de la liberté dans le cyberespace que de croire la liberté garantie par le code. Car le code n’est pas figé. L’architecture du cyberespace n’est pas définitive. L’irrégulabilité est une conséquence du code, mais le code peut changer. D’autres architectures peuvent être superposées aux protocoles de base TCP/IP, et ces nouvelles couches peuvent rendre l’usage du Net fondamentalement contrôlable. Le commerce est en train de construire une architecture de ce type. Le gouvernement peut y aider. Les deux réunis peuvent transformer la nature même du Net. Il le peuvent, et le font. 13

Cet extrait est issu de l’article « Code is Law » écrit en janvier 2000 par l’avocat Lawrence Lessig. Ce qui est soulevé à travers ce texte est l’absence de neutralité du code qui sera orienté selon l’architecture le structurant. La neutralité n’est donc qu’un leurre dès qu’une hiérarchie s’impose dans la pré-sentation des informations. Cette hiérarchie peut aussi bien être régie par des principes visuels mais, plus encore, par des processus régissant l’apparition ou non de ces informations.

J’assistais à un dîner conférence sur certains principes de bases de la neutralité des technologies de la recherche, lorsqu’un consultant de la Silicon Valley déclara sans détour : « on ne pas pas coder pour la neutralité. » Cela revenait à dire que les décisions de classement équitable des sites ne pouvaient pas être réduites aux algorithmes qui pilotent ces opérations.14

Frank Pasquale, dans The Black Box Society, nous explique comment Foundem, une entreprise spécialisée en « recherches verticales » dans le domaine de la comparaison des prix, accuse Google d’être à l’origine de son absence de succès. La cause ? L’impossibilité de figurer parmi les premières pages des résultats de recherche de Google lorsque les utilisateurs demandaient des comparaisons de prix. Si Google invoquait l’argument du site de piètre qualité, il n’en n’était pas de même pour Foundem :

Si Google n’a aucun intérêt dans le secteur, il laissera une start-up s’y développer. Mais une fois qu’il intègre (ou envisage d’intégrer) un marché occupé par un concurrent plus petit, il déclasse ce dernier pour assurer la prééminence de ses propres offres.15

Si Google a fini par réhabiliter Foundem après que la presse se soit intéressée à cette histoire, l’entreprise aurait pu sans intervention, rester indéfiniment introuvable, la condamnant alors. Partons du principe que Foundem avait raison concernant son exclusion du moteur de recherche. Après tout, la boite noire qu’est Google ne nous permet pas de vérifier… Google pourrait alors influencer les recherches pour faire émerger ou non les liens le favorisant, au même titre qu’un éditeur qui sélectionnerait les textes à publier. Même si le moteur de recherche propose plus de 10 résultats, seulement 4 % des usagers vont tenter de trouver le résultat voulu au-delà de la première page16. L’algorithme légitime alors les 10 premiers résultats et le système de « page » les segmente indiquant un comportement à adopter si notre résultat ne se trouve pas ici : les mauvais termes de recherche ont été employés, les pages suivantes ne nous donneront pas un résultat plus satisfaisant, il me faut alors reformuler ma requête auprès de Google pour faire émerger ce que je désire obtenir, laissant les résultats dans les pages 2, 3, 4, … dans l’obscurité.

Google à ainsi acquis le pouvoir de choisir, parmi des millions de contenus, la dizaine de contenus « pertinents »17

Si l’algorithme de Google permet de faire émerger les résultats et donc de sélectionner ce qui doit être consulté, la manière de les présenter n’est pas non plus anodine. Pourquoi segmenter les réponses données sous forme de pages ? Ce modèle de présentation hérité du livre semble aller contre ce qui caractérise une page web, elle n’est pas limitée dans sa longueur et les réponses pourraient être apportées en étendant la taille de la page au fur et à mesure, comme cela est fait sur le fil d’actualité d’Instagram, Facebook ou sur l’application mobile GMAIL par exemple. Cependant cette manière dont la navigation opère implique un autre comportement vis-à-vis du contenu.
Dans un épisode de Abstract dédié au design numérique, Aza Raskin l’un des créateurs du infinite scroll (défilement infini) de l’application Instagram s’exprime sur celui-ci :

Si vous avez déjà fait défiler votre fil twitter ou Instagram, vous savez que c'est infini. Cette caractéristique assez récente s'appelle : Défilement infini [...] Je crois que je dois expier à jamais. Quand je réfléchissais au défilement infini l'idée était : en tant que designer j'ai échoué, si je demande à l'utilisateur de faire un choix dont il se fiche. Donc, faire défiler signifie : je n'ai pas vu ce que je veux, montre-moi plus. Alors pourquoi avoir des petits boutons en bas sur lesquels tu appuies pour montrer plus ? En tant que designer d'interaction humain-ordinateur je ferai un défilement infini avec plaisir. Mais si je pensais à ce niveau supérieur, je saurais que ça supprimerait les signaux d'arrêt. Comme quand je bois un verre de vin, j'arrête de boire quand je finis mon verre et je me dis : "Un de plus ?". Ici on ne donne pas le signal. On fait donc perdre aux gens des centaines de millions d'heures. [...] Et maintenant, on voit que non seulement la technologie nous distrait, mais si on pense à Facebook, ils construisent un petit simulateur de vous. Ils construisent un simulateur pour un humain sur quatre sur Terre.18

Cette manière de présenter le contenu est en contradiction avec ce que propose Google qui segmente les résultats de recherches, les enjeux à l’égard des utilisateurs n’étant pas les mêmes. La création de pages dans les résultats proposés crée une réelle rupture entre la première page et les autres résultats. Un classement nous est déjà proposé au sein des premières réponses de la première page qui elle même se détache des autres pages de réponses. À travers cette segmentation, Google hiérarchise les contenus jugés pertinents et exclue les autres.
L’utilisation des statistiques et les données comme point d’appui sur lequel se reposent les choix de l’algorithme de Google, lui donnent une apparente neutralité « non interventionniste ». De plus, une forme de choix nous est offert car plusieurs liens s’affichent, je peux décider de cliquer ou non sur le 5ᵉ si je le souhaite. Cependant, nous avons vu que ce ne sont pas les choix eux-mêmes qui sont édités mais la manière dont ils se structurent et se présentent à nous.

Les données, aussi massives soient-elles, relèvent du domaine de la représentation, elles expriment un point de vue nécessairement partiel et ne font sens qu'en lien avec une connaissance préalablement constituée. Elles ne sont pas innocentes. Elles contiennent de la théorie, cristallisée dans les algorithmes qui les organisent, sachant que la recherche de régularité qui les gouverne présuppose la construction d'hypothèses.19

Un autre cas peut être abordé, celui de l’AppStore d’Apple. Celui-ci, au contraire du PlayStore de Google, nécessite qu’Apple valide l’application avant sa publication. Si l’on peut comprendre cette volonté de filtrer certains types de con-tenus illégaux (pédopornographie par exemple), d’autres posent plus de questions. Frank Pasquale en répertorie plusieurs et notamment Drones+, une application créée par John Begley. Elle permettait de répertorier des infor-mations sur les frappes de drones de l’armée américaine et alertait en temps réel les détenteurs de l’application lorsqu’une frappe survenait. Il a fallu deux ans, cinq rejets et un changement de nom pour que Drones+ devenu Metadata+ figure finalement sur L’AppleStore. L’édition de l’espace de publication d’Apple ne se fait alors pas par la sélection d’un contenu mais par le rejet de certains.

L’essor du numérique nourrit une gigantesque économie de rente, non pas parce que l’information serait la nouvelle source de valeur, mais parce que le contrôle de l’information et de la connaissance, c’est-à-dire la monopolisation intellectuelle, est devenu le plus puissant moyen de capter la valeur.20

Ces différents cas illustrent alors un déplacement du pouvoir au profit d’acteurs – GAFAM – qui n’étaient pas, à priori, à la base des éditeurs. Leur statut est désormais difficilement réfutable en raison de l’influence que peuvent avoir leur choix sur l’information. Une nouvelle forme de sélection apparaît se réalisant désormais à travers un large catalogue, où la fonction et le pouvoir de ces acteurs se basent sur la recommandation et la mise en avant – ou en retrait – d’un contenu déjà réalisé et non plus sur sa production. Les processus régissant leur apparition dans nos appareils étant opaques, cette politique éditoriale de sélection fondée sur la rente contribue alors à une crise de crédibilité dans nos relations à l’information.

Expérience et designWashing

Read Only -> Read & Write -> Real Only ?

En 2008, dans son livre Remix, Lawrence Lessig introduit le change-ment de culture qui a été opéré à l’aide d’internet : le passage d’une culture en lecture seule – Read Only / RO – vers celle d’une lecture et écriture – Read & Write / RW – où le lecteur à la possibilité d’écrire et donc de contribuer à une culture commune. L’idée d’une telle contribution avait été pensée par Tim Berners Lee à l’origine du Web. Cette transition provoquée par l’invention d’une technologie particulière, peut être observée à l’inverse, comme le souligne Lessig, à travers le cas soulevé par le compositeur John Philip Sousa. Avec l’apparition des phonographes au début du XXᵉ siècle, il était désormais possible d’écouter de la musique à travers des « machines » changeant la manière de la diffuser.

Quand j’étais un jeune garçon… Les soirs d’été, devant chaque maison vous pouviez trouvez des jeunes gens chantant ensemble aussi bien les chansons les plus récentes que des vieilles chansons. 21

L’apparition du phonographe aurait alors tué ce rapport « amateur » avec la musique, en passant d’un mode de contribution, à sa consommation. Cependant, dans le cas du Web, c’est ce retour – ou la création – à une culture de la contribution qui est mise en place avec Wikipédia comme exemple le plus parlant de cette transition parmi les nombreux blogs, forum ou sites communautaires qui ont vu le jour.
Dans un article écrit en 2016, Marcello Vitali-Rosati met en opposition deux types d’éditions. La première, l’édition « GAFAM » :

…est la forme de circulation de contenus qui occupe la plus large partie de nos expériences numériques. Justement, si je veux savoir comment on construit une palissade, ou comment on rôtit un gigot d’agneau, ou qui était le président des États-Unis en 1945, ou quels acteurs jouaient dans le dernier film de Woody Allen ou encore où se trouve exactement Paris dans le Texas… je le cherche d’abord sur Google22

De ce type d’édition, plusieurs caractéristiques ressortent : elle est basée sur les données plus que sur les documents, elle se veut centralisée, avec un fonctionnement opaque. Elle se veut efficace, simple d’utilisation avec des informations dont la validation n’est pas nécessaire et d’où selon Vitali-Rosati, de la centralité de la donnée dérive une certaine aspiration à l’unité. Il oppose à cette édition GAFAM, l’édition savante qu’il décrit comme : productrice de documents, plurielle, validée par des dispositifs de légitimation clairs, riches, complexes et demandant une bonne connaissance technique de la part de l’utilisateur. Il invite par la suite les chercheurs à prendre conscience de ce qui se joue ici :

Il est urgent d’agir dans ce domaine, si nous voulons préserver la possibilité d’une alternative à la circulation de contenus proposée par les grandes multinationales du web. Pour ce faire, il est nécessaire d’intégrer l’idée que les enjeux techniques sont inséparables des enjeux intellectuels.23

Si à l’origine, le Web avait cette dimension plurielle et ouverte, cette tendance à s’orienter de plus en plus vers un web des GAFAM change alors le statut du Web et notre rapport à lui. Ce qui pouvait autrefois être considéré comme une grande bibliothèque avec une circulation fluide entre les différentes informations, a depuis les années 2000, été pris d’assaut par la sphère marchande et la publicité y a pris une place de plus en plus grande.

Inventé dans les années 1990 par Donald Norman, le terme d’UX design ou design d’expérience utilisateur – User eXperience – est depuis quelques années très présent dès lors que la ques-tion de l’interface se pose. L’UX est souvent couplé avec l’UI, l’interface utilisateur – User Interface –. Si je décide de taper « ux ui » sur Google, de nombreux articles viennent m’expli-quer que l’UX n’est pas l’UI et inversement. Le premier serait « l’architecte de l’information », qui s’inté-resserait aux comportements de l’utilisateur tandis que l’autre serait responsable de l’interaction Homme machine, il s’occuperait de « l’apparence de l’interface ». Quels sont alors les problèmes posés par ce couple UX/UI qui, par leur réalisation et leur rapport aux objets techniques les rappro-chent grandement de ce types d’édition GAFAM ?

stopfacebook

Lorsque je décide d'ouvrir la console web sur ma page Facebook ce message se présente à moi. Il me dissuade vivement de tenter d'explorer les programmes à l'œuvre sur ma page Web.

facebookgoogle

Hello data

Du surplus comportemental et de l'exploitation des data

Le premier problème est le terme d’« expérience ». La consultation d’un site web dont on fait l’expérience, est celle où l’on suit un trajet pré-déterminé, au même titre qu’un cobaye va chercher une récompense dans un labyrinthe de laboratoire. Dans la plupart des cas, cela se traduit soit par l’achat d’un produit/service ou dans le cas des réseaux sociaux par la production d’un « surplus-comportemental », c’est-à-dire de data nous concernant tout au long de notre navigation. La visée est alors l’utilisation de ces principes dans le but unique de générer du profit.

Restreindre : la manière la plus simple de faire quelque chose facile à utiliser, avec peu d’erreurs, c’est de faire en sorte qu’il soit impossible de faire autrement - de contraindre les choix. Vous voulez évitez que les personnes tentent de mettre la batterie ou la carte mémoire de leur appareil photo de la mauvaise manière, pouvant endommager l’électronique ? Faites en sorte que cela ne fonctionne que d’une seule manière, ou faites le marcher parfaitement peut importe comment l’objet a été manipulé. 24

Extrait de la préface de la réédition de la « Bible de l’ux-design » The Design Of Everyday Things par Don Norman, cette citation est l’un des commandements du design selon ce livre. Ce ouvrage traite des « bonnes façons » de réaliser le design sous toutes ses formes. Du design des poignées de portes aux téléphones, en passant par celui des interfaces ; des règles tentent de déterminer ce qu’il est bon de faire afin qu’un objet lors de son utilisation ne pose aucune question, que rien n’entrave notre interaction avec lui. Écrit pour la première fois en 1988, le contexte d’utilisation de nos appareils informatiques n’est plus le même qu’à l’époque. Cependant l’écho qu’a ce texte aujourd’hui à la vue de ses multiples rééditions (en ce qui concerne les interfaces tout du moins), pose un problème au regard du développement d’Internet des GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et de son utilisation. Ce qu’incite à faire ce texte, c’est de créer des dispositifs impliquant un comportement passif à l’égard des dispositifs techniques que nous utilisons dans notre travail ou temps libre, et qui empêche, par conséquent, leur mise en cause. Aujourd’hui, il n’est plus nécessaire d’être « actif » – de poster ou partager des photos / statuts – sur les réseaux sociaux afin de générer ce qu’appelle Shoshana Zuboff dans L’âge du capitalisme de surveillance, un « surplus comportemental », pour voir le contenu que nous consultons en ligne être adapté en fonction de notre « identité numérique ».

Cette hyper-personnalisation de notre « expérience » de consultation du Web est à la fois le produit et la condition de l’exploitation et de la marchandisation de nos données. Les conséquences peuvent de la manière la plus extrême se convertir en tentative de manipulation, comme a pu le faire par exemple Facebook en 2012, auprès de 700 000 utilisateurs anglophones25. Si les dérives de l’utilisation des données personnelles sont nombreuses avec, récemment, un écho de plus en plus retentissant, c’est ce rapport avec la navigation des utilisateurs qui a permis à Google au début des années 2000 de survivre en changeant la direction stratégique de l’entreprise. D’une entreprise qui se destinait à vendre sa technologie pour moteurs de recherches, elle s’est concentrée sur un modèle basé sur la publicité comme source de revenus26. Cette transition de Google au début des années 2000 permet d’illustrer ce qui s’est ensuite développé chez les autres géants du numérique et leur modèle de fonctionnement, depuis plus d’une dizaine d’années.

... Google a préféré laisser s'emparer du monde une nouvelle version du capitalisme, ouvrant une boîte de Pandore dont on commence seulement à comprendre le contenu27

Il s’agit ici de mettre en avant la manière dont s’est construit le Web durant les 20 dernières années, et qui commence tout juste à questionner une plus grande part de la population après de nombreuses années d’exploitation. Des questionnements viennent alors appuyer une remise en cause d’une forme de rapport à la technique qui, en apparence, se veut au service de l’humain en se fondant et s’oubliant dans son quotidien.

Sur notre passivité au travail face à nos outils

Si la consultation du Web et l’utilisation des ordinateurs peut se faire dans un but informatif, la dimension du travail ou de l’apprentissage – dans un milieu scolaire par exemple – ne peut être exclue. Ces fonctions peuvent être notre premier contact avec l’informatique, façonnant nos attentes. L’idéologie propulsée par la Silicon Valley sur les technologies, prône un rapport par et avec elle émancipateur de l’individu. Il faut arriver à nuancer cela et voir quel type de comportement a pu émerger grâce à elle.

Si la diffusion des TIC (Technologies de l'Information et de la Communication) s'est traduite par une dégradation de l'activité professionnelle, c'est donc parce que les outils numériques ne permettent pas à la plupart des salariés de définir davantage l'objet et la forme de leur travail. En conséquence, suractivité et sentiment d'insignifiance vont souvent de pair, formant un mélange destructeur. Ce constat contredit la promesse de l'idéologie californienne d'augmentation du pouvoir d'agir des individus grâce au numérique. Il n'y a cependant pas de raison de penser qu'il s'agisse d'un effet intrinsèque à ces technologies. Le problème est bien plutôt celui de l'usage de la technique dans le procès de travail capitaliste, et de ses déterminants28

Cédric Durand tente dans la première partie de son livre de démontrer comment le rêve d’émancipation vendu par la Silicon Valley n’est, dans la réalité, qu’une illusion. Comment le caractère émancipateur de la technologie, dans les faits, est biaisé. L’un des exemples de ce rapport qui paraît peut-être plus évident est sans doute UBER. Les chauffeurs se retrouvent assujettis à une application et aux notes que veulent bien leur donner les utilisateurs. 29
On pourrait croire cet exemple éloigné des questions posées par un rapport passif aux objets techniques, il n’est en vérité pas si loin de nos problématiques. Au même titre que la passivité vis-à-vis des GAFAM et d’une absence de mise en cause de leur mode de fonctionnement leur permet d’exercer un pouvoir de suggestion sans précédent, comment ne pas émettre l’hypothèse que l’outil numérique, en proposant un cadre de travail, dicte ses propres règles qui ne peuvent être que subies si elles ne sont pas comprises.

La prolétarisation est, d’une manière générale, ce qui consiste à priver un sujet (producteur, consommateur, concepteur) de ses savoirs (savoir-faire, savoir-vivre, savoir concevoir et théoriser).30

Car si aujourd’hui Internet permet à quiconque possédant quelques notions de programmation Web, de publier ou de mettre en relation le contenu qui lui plaît de manière « indépendante », l’inaptitude à la lecture de ces technologies peut générer un rapport différent avec elles. Une nouvelle forme de « prolétarisation » s’applique alors, lorsque l’individu est incapable de comprendre ses outils et son environnement de travail. Dans un espace où recueil d’informations, productions de formes, communications, écriture ou encore traitement de données sont confondues, l’interaction avec l’une de ces fonctions influence la manière dont on se comporte avec les autres. ^ Le principe d’affordance31 se trouve au cœur du processus de conception d’un objet – numérique ou non – sous le signe de l’UX design. Terme emprunté à l’anglais, le définir clairement n’est pas si facile, cependant on pourrait le résumer aux possibilités d’interactions qu’offre un objet lors de notre rencontre avec lui. Autrement dit, c’est l’action que va nous suggérer que faire d’un objet lorsqu’on décide de l’utiliser.

Les caractéristiques d’affordances et de restriction peuvent être appliqués à la conception des objets de tous les jours, simplifiant grandement nos rencontres avec eux.32

Je parlais absolument d’ordinateurs. Je n’ai délibérément pas utilisé les ordinateurs et autres appareils électroniques comme exemples car je voulais montrer que ces principes (affordances, constraint, mapping and feedback) qui s’applique au design de poignées de portes et aux interrupteurs s’appliquent aussi aux ordinateurs… 33

Dans ce discours et son application dans notre rapport aux logiciels, le passage de l’ordinateur et de son utilisation dans le domaine commun est montré comme une évidence, et notre appréhension des logiciels à travers les interfaces humain/machine se ferait alors de manière naturelle. Cependant, la conception de ces objets techniques est, comme nous l’avons vu précédemment, le résultat d’une écriture de programmes variés et multiples qui ne peut couvrir toutes les situations. Cette écriture est réalisée à des fins particulières pouvant accepter ou non des contributions extérieures et dont le code est le cadre structurant. Pour cela, la programmation et les interfaces présentant les résultats des programmes ne peuvent être envisagées comme « simples » ou « universelles », malgré les automatismes pouvant traiter un grand nombre d’informations.
L’édiction de commandements dans la réalisation de ces objets issus de la programmation, avec comme point de départ leur couche visible – l’interface –, et dont la finalité est de se fondre dans le quotidien, pose l’hypothèse d’une connaissance commune, uniformisante du fonctionnement de l’outil informatique et d’une unicité dans l’action qui résulte de leur utilisation.
Ce raisonnement mène alors aux deux types d’éditions dont parle Marcelo Vitali-Rosati : l’édition GAFAM et l’édition savante ou la filiation de avec l’édition GAFAM se fait retentissante ainsi qu’aux conséquences que celle-ci entraîne.
Il ne s’agit cependant pas de charger de tous les maux les interfaces graphiques qui nous entourent sans prendre en compte les difficultés que peut engendrer l’utilisation des ordinateurs ; comme si le numérique ne devait être accessible qu’à quelques initiés, excluant les moins intéressés par la programmation. Il s’agirait, dans le cas de l’utilisation d’un logiciel, d’arriver à un équilibre. L’interface ne cacherait pas les processus informatiques à l’œuvre et l’environnement dans lequel ils prennent part et éclairerait alors nos actions. Dès lors qu’il s’agit de la réalisation d’un site web, il faudrait parvenir à rendre compte des processus et du contexte de publication. Cette démarche ne vise donc pas à exclure les personnes qui ne maîtriseraient pas leur ordinateur mais plutôt d’arriver à leur faire comprendre leurs interactions avec la machine en contextualisant ce à quoi ils sont confrontés.

Un exemple qui permet d’illustrer ce propos sont les logiciels de traitement de textes. La question est plus complexe que l’illustration que je vais utiliser mais permet néanmoins de comprendre les changements que peut apporter l’utilisation d’un logiciel comme Microsoft Word d’un côté et l’utilisation d’un format comme le Markdown – extension .md – de l’autre.

Microsoft Word est un logiciel de traitement de texte WYSIWYG publié par Microsoft permettant donc d’écrire, mais aussi de mettre son texte en page – souligner des mots, changer la ou les typographies, surligner des phrases, gérer la taille des marges… –. Son fonctionnement est fortement hérité des machines à écrire qui fusionnent la mise en page et l’écriture : on met son texte en page destiné à être imprimé en même temps que l’on écrit. La hiérarchisation et la structuration des paragraphes et des titres se fait donc de manière visuelle : j’ai appris depuis que je suis jeune qu’un mot en gras signifie qu’il est important. Alors, si je veux mettre l’accent sur ce mot, je le passe en gras. Cependant à travers ces principes de mise en page et l’utilisation de ce logiciel de cette manière, je fonctionne en circuit fermé en comprenant juste que l’outil Microsoft Word me permet d’imprimer mes textes mis en page, et je n’envisage pas un autre contexte d’utilisation.
Markdown quant à lui est un format de balisage léger mis au point par John Gruber et Aaron Swartz en 2004. S’il peut être utilisé dans des éditeurs de code ou de textes divers, il existe aussi de nombreuses applications le destinant à la rédaction comme peuvent l’être Ghostwriter ou encore Mark Text. À la différence de Microsoft Word qui permet une structuration du texte via diverses icônes sur lesquelles il faut cliquer, si l’on décide d’écrire en Markdown, il sera nécessaire d’apprendre quelques règles. Le fonctionnement de cette écriture compréhensible en quelques minutes, permet, non seulement de voir son texte se structurer, mais également de le structurer sémantiquement. Plus que l’humain pouvant identifier les différents niveaux de texte grâce à la hiérarchie visuelle mise en place, la machine pourra elle aussi interpréter la manière dont se structure le texte, les niveaux de lecture étant définis par des balises. Cela permet aussi de dissocier le temps de la rédaction du texte de celui de sa mise en forme, permettant ainsi de se concentrer uniquement sur l’écriture, pour qu’ensuite sa réutilisation sur des supports numériques soit plus aisée grâce à la possibilité de transcription de cet encodage par la machine.

reglemd

Correspondance entre le balisage markdown et sa traduction par la machine.

auto_sommaire

GhostWriter me permet ici d'automatiser mon sommaire grâce aux différentes balises

Enfin – et surtout –, voyons ce que nous apporte comme connaissance de notre environnement technique l’utilisation d’un format comme le Markdown plutôt qu’un logiciel fonctionnant en circuit fermé comme Microsoft Word.
Markdown instaure l’idée que l’on écrit sur divers fichiers possédant un format particulier plutôt que dans une interface, dissociant alors le fichier du logiciel. Ces formats peuvent être interprétés par différentes applications et rend donc possible modularité et interopérabilité offertes par l’outil informatique. Le balisage permet un hypothétique traitement automatique des données. Enfin, il nous permet de com-prendre que l’informatique est un ensemble de programmes cohabitant ensemble, ce fichier étant destiné à être réinterprété par un autre humain – ou logiciel –. Au final, il nous aide à saisir dans quelle structure de programmation vient s’inscrire nos écrits.

Le cas du traitement de texte permet de voir comment l’utilisation de l’une ou l’autre des méthodes de rédaction permet de comprendre ou non notre environnement numérique, et permet alors sa remise en question, cela sans connaissance appliquée de la programmation.

previz

L'éditeur me permet de voir la structuration sémantique d'un côté et sa traduction visuelle de l'autre une fois interprété par la machine.

Simplicité et Accessibilité

En proposant une forme de design destinée à intégrer la technologie dans le quotidien comme une chose naturelle, pour la simplifier, une opposition se dessine. Si ce n’est pas simple, si l’objet ne s’est pas fondu dans votre routine journalière dès l’instant où vous l’avez acquis, celui-ci doit sûrement être mal conçu, compliqué, non fonctionnel, presque inutilisable. Ce type de réaction s’inscrit dans une opposition manichéenne qui définit la technique exclusivement dans un rapport de servitude et pour laquelle l’objet permettrait de combler nos attentes. Cependant, alors que les TIC ont une telle influence sur nos modes de communication et de penser, cette opposition ne semble, dans le cas de l’informatique, pas pertinente. Au même titre que la lecture et l’écriture offrent, après leur apprentissage, la possibilité de construire et d’argumenter un discours et de le fixer dans la longue durée sur un support, l’informatique, par les multiples possibilités offertes d’automatisation et de mises relations d’informations, peut être considérée, elle aussi, comme un acteur intervenant dans la réflexion.
Une distinction pourrait alors être établie entre d’un côté la simplicité et de l’autre l’accessibilité des relations entretenues avec nos machines. En créant des interfaces possédant une structure complexe et permettant une approche facilitée, mais contraignant nos décisions d’exécution et de lisibilité du programme, il est possible, effectivement, de simplifier notre rapport avec ces objets techniques. Mais cette simplification se fait au détriment de l’accessibilité qui, quant à elle, serait la possibilité de comprendre ou lire le programme et donc son contexte d’exécution et son environnement. Or, l’accessibilité n’exclut pas une forme de simplicité comme c’est le cas lors de l’utilisation d’un format comme le Markdown.

Dans une conférence donnée en 2008 34, Pierre-Damien Huygue tente de soutenir une position artistique où l’artiste adopte une certaine conduite avec la technique. Cette position est celle d’un artiste qui ne considère pas la technique comme un moyen pour arriver à un objectif – plaçant son travail dans une forme de déclaration ou énonciation – mais il s’agit plutôt de l’attitude d’un artiste qui cherche, explore quels sont les possibilités offertes par tout objet technique – il n’est alors plus question ici d’énonciation mais de « faire » –.

mettre en évidence ce qu’il y a d’utile à propos d’une technique, sans passer pour justifié cette utilité par une quelconque notion de service. Tel est l’enjeu de la position artistique[…] Ce qui va avec service ou ce qui peut aller avec service, il y a naturellement serviabilité mais il y a aussi servilité[…] Ce qui se joue la dedans c’est tout simplement notre liberté avec ou à l’égard des techniques35

Si le design graphique n’est pas de l’art, on ne peut exclure que tout comme lui il entretient une forte relation avec la technique, en permettant l’inscription et la transmission d’informations – nous avons vu précédemment que ces objets techniques ont une influence sur la manière dont l’information est diffusée –. On peut alors questionner ce positionnement vis-à-vis de la technique et tenter de l’appliquer dans la manière dont le design graphique va se concrétiser. La réalisation du design graphique au travers d’un appareil numérique – que ce soit dans les supports de diffusion ou les ressources nécessaires à la création d’un document imprimé – semble presque inévitable à notre période. La complexité des appareils, non pas dans leur usage, mais dans leur conception technique matérielle – hardware – et logiciel – software –, ne cesse de croître créant une distance de plus en plus importante entre ce que l’on fait et ce que la machine exécute. En ne considérant alors pas cette technique et en la réduisant à un simple moyen de plus dans les procédés de transmission, on met en retrait de nombreuses autres possibilités qu’elle offre tout en perpétuant un obscurantisme à son égard et aux moyens dont l’information nous parvient.

Si le terme de design graphique est utilisé ici non pas comme un métier mais comme des procédés visuels qui se présentent à nous, c’est parce qu’aujourd’hui les moyens de diffuser ou publier une information ne sont plus uniquement réservés à des personnes disposant des moyens de se faire éditer. Pour cela, la liberté à l’égard des techniques ou technologie de l’information n’est plus seulement à considérer par les personnes possédant le titre de designer graphique, éditeur, développeur… C’est une question qui touche toutes personnes disposant d’un ordinateur (laptop, smartphone, …) et dont l’usage est quotidien.

Conclusion

Avec Internet et l’installation de l'informatique dans les foyers, la circulation de l’information a évolué et avec elle notre comportement à son égard. La lecture et l’écriture de cette information ont subi des changements car les objets tech-niques imposent le cadre et la condition de leur exécution, impliquant alors ces objets dans une forme de processus éditorial. Ces nouvelles formes d’organisation de l’infor-mation ont alors changé le statut d’acteurs du Web qui se trouvait à l’origine loin de ces questionnements éditoriaux et se trouvent désormais dans une position où leurs choix ne sont pas sans répercussions. Dans ce contexte où aujourd’hui ces outils semblent accessibles à tous, leur fonctionnement reste quant à eux plus opaque que jamais.

J’ai tenté à travers ce mémoire d’éclairer certains points sur la manière dont circule et se présente l’information aujourd’hui. De montrer que la technique et par extension la programmation est le fruit d’une réflexion et de choix d’humains et non pas issu d’une forme d’auto-mutation d’une machine dite « intelligente ». Une fois ces processus définis, il s’agit de savoir comment considérer et quel comportement adopter vis-à-vis de ces technologies. Aujourd’hui, le discours sur le design comme une solution à tous les problèmes tend à définir notre rapport avec les TIC de manière uniformisante sans en comprendre le fonctionnement tout en cloisonnant les logiciels. Ce rapport qui génère une forme de standardisation de ces appareils à travers des procédés visuels, réduit alors les possibilités de réinterprétation et de réappropriation de ces technologies. Cependant, si ce discours du design comme solution universel est semble-t-il dominant aujourd’hui, il existe néanmoins des alternatives plus perméables à leur compréhension. Pour commencer à en définir les contours il convient de se tourner vers les logiciels libres et les formes de penser qu’ils ont pu engendrer. Des objets transparents dans leur fonctionnement où le principe de contribution, de pluralité et de réinterprétation – fork36 – est mis en avant, permet alors de faire « avec » et non plus « à l’aide de ».

Dans une conférence donnée en 201437, Benjamin Bayart qualifiait Internet de l’outil dont nos sociétés se sont dotées pour changer. À travers cela, il émettait l’hypothèse que comme l’imprimerie au XVᵉ siècle, Internet s’est développé en réaction à un moment de l’histoire où les humains avait la nécessité de diffuser plus amplement leurs connaissances.
Aujourd’hui, – en 2021 – alors qu’Internet est désormais largement installé dans notre quotidien, nous pourrions être tentés de revoir cette supposition pour qualifier Internet de l’outil dont quelques entreprises se servent afin de changer nos sociétés. Cette hypothèse pourrait être qualifiée de totale-ment absurde, mais l’influence grandissante des acteurs du web et de l’informatique couplée à une technologie de plus en plus au cœur de notre quotidien, nous impose de ne pas totalement réfuter cette supposition. Il ne tient alors qu’à nous de mettre en place les conditions permettant le refus de cet Internet des entreprises.

Notes


  1. Benjamin Bayart, La neutralité du réseau, La bataille Hadopi, 2009, In libro Veritas p.66 

  2. Robert Darnton, Apologie du livre, 2012, Paris, Folio Essais, p.248 

  3. Marcello Vitali-Rosati & Benoit Epron, L’édition à l’ère du numérique, 2018, Paris, La découverte, p.21 

  4. Le moment de publication est indiqué mais l’environnement technique de son inscription rend celui-ci instable car facilement falsifiable. Il y a alors un vrai enjeu à fixé le contenu, comme pour les articles scientifiques par exemple, ainsi qu’a conserver une publication ou un état de publication à un moment précis. C’est ce que tente de faire Internet Archive avec la Wayback Machine. On peut aussi citer Git permettant entre autres à la fois la collaboration de plusieurs personnes sur un même programme et le versioning de celui-ci (une forme de conser-vation des états précédents du programme). 

  5. Ce modèle d’édition permit par Wikipédia de manière publique pourrait cependant se complexifier et proposer un accès limité à un groupe de personnes restreint à travers un système d’authentification. 

  6. Marcello Vitali-Rosati & Benoit Epron L’édition à l’ère du numérique, Op. Cit. p.6 

  7. Emmanuel Souchier L’image du texte, pour une théorie de l’énonciation éditoriale, Les cahiers de Médiologie, nᵒ6, 1998/2, p.142 

  8. Marcello Vitali-Rosati & Benoit Epron L’édition à l’ère du numérique, Op. Cit. p.28 

  9. Les caractéristiques majeures de la licence Apache sont, d’une part, d’autoriser la modification et la distribution du code sous toute forme (libre ou propriétaire, gratuit ou commercial) et, d’autre part, d’obliger le maintien du copyright lors de toute modification (et également du texte de la licence elle-même). 

  10. Le fonctionnement d’un OCR marche d’une part à travers l’analyse du document envoyé (analyse des formes des lettres) couplés à des « dictionnaires » de langues afin de recomposer des mots qui dans le contexte semblent probables. 

  11. Définition du SVG sur Wikipédia 

  12. Cette transparence vis à vis des logiciels et des conditions de leur exécution permet aussi d’aborder la question de leur préservation en permettant de décrire très précisément leur environnement de production 

  13. Lawrence Lessig Code Is Law, 2000, Lien en ligne 

  14. Frank Pasquale, The Black Box Society, 2015, FYP Éditions, Limoges, p.287 

  15. Ibid. p.105 

  16. Marcello Vitali-Rosati & Benoit Epron L’édition à l’ère du numérique, Op. Cit. p.86 

  17. Ibid. p.86 

  18. Abstract: The Art of Design, Ian Spalter : Digital Product Design, 2019, Netflix 36’15 min. 

  19. Cédric Durand, Techno-Féodalisme, Critique de l’économie numérique, 2020, Paris, Zones p.104 

  20. Ibid. p.173 

  21. Lawrence Lessig, Remix, Making Art and Commerce Thrive in the Hybrid Economy, 2008, ma trad., Bloomsbury Publishing PLC, London, p.24 :
    *When I was a boy. . . in front of every house in the summer evenings you would find young people together singing the songs of the day or the old songs. 

  22. Marcello Vitali-Rosati, Édition GAFAM et édition savante une bataille en cours ?, 2016 Lien en ligne 

  23. Ibid. 

  24. Don Norman, The design of everyday things, 2002, ma trad. New York, Basic Books, p.12
    Constraints : The surest way to make something easy to use, with few errors, is to make it impossible to do otherwise– to constrain the choices. Want to prevent people from inserting batteries or memory cards into their cameras the wrong way, thus possibly harming the electronics? Design them so that they fit only one way, or make it so they work perfectly regardless of how they were inserted. 

  25. Le Monde avec AFP, Des utilisateurs de Facebook « manipulés » pour une expérience psychologique, 2014, Lien en ligne 

  26. Shoshana Zuboff, L’âge du capitalisme de surveillance, 2018, Zulma, p.123-124 

  27. Ibid. p.124 

  28. Cédric Durand, Techno-Féodalisme, Critique de l’économie numérique, Op. Cit., p.61 

  29. La note est /5 et sur les 500 derniers trajets effectués. En Belgique, une note minimale de 4,65 pour UberX et de 4,8 pour UberBerline (Black) est requise pour préserver le niveau de qualité de l’application Uber. En ligne 

  30. Bernard Stiegler, sur Ars Indstrialis Lien en ligne 

  31. Le concept d’affordance à été développé par le psychologue James J. Gibson, Don Norman l’a par la suite intégré dans sa pensée du design. 

  32. Don Norman, The design of everyday things, Op. Cit., ma trad., p.87
    The characteristics of affordances and constraints can be applied to the design of everyday objects, much simplifying our encounters with them. 

  33. Don Norman, Ibid., ma trad. p.XV
    I was absolutely talking about computers. I deliberately didn't use computers and other digital devices as examples because I wanted to show that the very same principles that applied to the design of doorknobs and light switches also applied to computers 

  34. Pierre-Damien Huygues, L’art comme conduite technique, à propos du travail de Masaki Fujihata, Lien en ligne, École nationale supérieure des arts décoratifs, Paris, 19 novembre 2008. 

  35. Ibid. 10 min. 

  36. Fork, Un fork (terme anglais signifiant « fourche », « bifurcation », « embranchement ») désigne dans le langage courant, un nouveau logiciel créé à partir du code source d’un logiciel existant, Lien en ligne 

  37. Benjamin Bayart, L’Internet peut-il casser des briques ?Lien en ligne, 5 min.